Intelligence artificielle et robotique : quelles promesses, quels dangers ?
Pour la quatrième conférence annuelle du Centre Society & Organizations (S&O) d’HEC, Mitali Banerjee a souhaité évoquer l’impact de l’intelligence artificielle et de la robotique sur le travail et la société. Les participants ont assisté à des débats animés, qui ont rassemblé des représentants d’entreprises, de centres de recherche ou de think tanks internationaux.
Le développement d’une intelligence artificielle complète pourrait sonner le glas de la race humaine… Elle pourrait prendre son indépendance, et se réinventer à un rythme toujours croissant. Les humains, qui sont limités par leur lente évolution biologique, ne pourraient pas lutter et seraient ainsi supplantés.
Nous vivons aujourd’hui à l’ère inhumaine et l’ère humaine va bientôt arriver, mais nous allons avoir besoin d’aide pour y parvenir. C’est pourquoi je suis optimiste à propos de l’intelligence artificielle.
Ces visions de l’intelligence artificielle (IA) étaient toutes deux au cœur de la conférence organisée le 12 mars dernier par le Centre S&O sur le campus d’HEC. « L’IA et la robotique offrent des perspectives considérables, tout en comportant de nombreux risques, » indiquait ainsi la co-organisatrice de la conférence, Mitali Banerjee, dans le propos introductif de ce débat passionnant qui a duré près de six heures. « L’impact de l’IA et de la robotique ne constitue pas un fait accompli technologique. Les opportunités et les risques qu’elles impliquent dépendent plutôt des structures sociales que nous mettons en place. Ils dépendent aussi des choix que nous faisons pour structurer nos organisations, nos marchés, nos législations et nos gouvernements ». Devant un public de plus de 170 personnes, la professeure en Stratégie et politique d’entreprise a commencé par décrire les avancées décisives que l’IA a accompli dans des domaines aussi divers que la médecine (où elle est utilisée pour diagnostiquer les maladies de la rétine) ou l’art (Mitali Banerjee utilise d’ailleurs elle-même l’IA pour évaluer le caractère innovant des œuvres d’art). Mais la chercheuse a également souligné les menaces que pourraient constituer l’IA et la robotique pour l’emploi, la vie privée et l’égalité des chances : « comment utiliser cette technologie puissante au bénéfice de la société dans son ensemble ? Comment redéfinir notre structure sociale pour rendre concrètes les promesses de l'IA et de la robotique ? »
Rome et son talon d’Achille
Les intervenants aux trois tables-rondes (« L’impact de l’IA et de la robotique sur le marché du travail », « Défis et opportunités » et « La structure organisationnelle et la gouvernance ») se sont ensuite efforcés d’apporter des réponses aux questions posées par Mitali Banerjee. Pour Daria Morozova, « c’était vraiment stimulant d’entendre les représentants des entreprises elles-mêmes, et de comprendre comment ils utilisent et développent l’IA, tout en le rendant visible pour les consommateurs. ». Cette doctorante russe d’HEC utilise en ce moment un chat-robot dans le cadre d’un projet visant à explorer l’interaction entre humains et non-humains. « Les témoignages de responsables de sociétés comme KPMG et EDZO.ai montrent que l’IA et la robotique ne sont pas encore des outils parfaits à ce stade. Il devrait peut-être y avoir plus de coopération entre les entreprises concernées et les consommateurs, pour rendre les algorithmes plus performants. »
Shirine Maher, la co-fondatrice d’EDZO.ai, utilise un coach virtuel basé sur l’IA pour préparer les personnels aux situations d’urgence et stimuler les ventes. « L’urgence, c’est que les entreprises créent de nouveaux business models qui intégrent l'IA et la robotique », a-t-elle expliqué aux participants de la table-ronde « Défis et opportunités », animée par Sangseok You. L’ancienne diplômée de l’Executive MBA d’HEC a ensuite comparé la place actuelle de l'IA dans la société avec les armées romaines qui ont envahi l'Europe il y a 2000 ans : « elles ont connu le succès au début, mais le problème de ces armées était que tous les ordres venaient du sommet. Elles étaient très rigides, ce qui a créé des résistances, mais aussi un manque d’évolution ou d’idées nouvelles. Un petit village de Bretagne a résisté parce qu’il a su être différent : il a été capable de mobiliser un petit groupe, qui ont toutes partagé, collaboré, créé. Il y avait de la diversité dans ce groupe, ce qui a favorisé l'innovation, la confiance et la solidarité dans un environnement hostile. Avec l’IA, l’industrie doit elle aussi montrer qu’elle peut penser différemment, qu’elle peut créer des liens entre des domaines très divers et unir différentes compétences pour résoudre des situations particulièrement complexes. Le partage de connaissances est la clé pour utiliser les outils d'intelligence artificielle et pour créer très rapidement de la valeur pour les entreprises. C’est ce que nous faisons avec notre coach virtuel. »
Une IA encore loin d'être mature
Paola Tubaro, chargée de recherche au CNRS, partage cet avis. La sociologue s’est spécialisée dans les liens entre l’IA et ses effets socio-économiques sur le travail. Intervenant lors de la table-ronde « L’impact de l’IA et de la robotique sur le marché du travail », animée par Frédéric Godart, professeur associé à HEC, Paola Tubaro a expliqué le rôle essentiel joué par les « micro-travailleurs » dans la production liée à l’IA : « il s’agit souvent de salariés très bien formés, mais sous-payés et précaires, qui représentent la face cachée de ce secteur. » Avant d’ajouter : « nous devons anticiper la déqualification et la dévalorisation des emplois, tout comme les biais humains que ces algorithmes peuvent renforcer. Au lieu de déployer l'IA comme un outil purement technologique, il faut réfléchir aux moyens d'utiliser cette technologie pour réduire et non reproduire ces inégalités. J’appelle donc à une meilleure réglementation de l’IA, une technologie qui n’a pas encore atteint sa maturité. »
Certains intervenants ont aussi évoqué les enjeux culturels liés à l'IA et à la robotique, des deux côtés de l'Atlantique. Paola Tubaro a rappelé, par exemple, la sensibilité française aux inégalités de revenus, qui a pu causer des résistances aux projets (fondés sur l’IA) autour de la transparence des salaires. « Les inégalités de genre ou raciales sont également plus taboues en Europe qu’aux Etats-Unis. » De son côté, Guillaume Chaslot, ancien ingénieur chez YouTube et chercheur à l’Université Paris-Est, a mis en cause la tendance des géants américains comme Facebook et YouTube à « croître rapidement et à régler les problèmes par la suite. Si les entreprises pensaient d’abord à l’impact de leurs algorithmes, cela produirait de meilleurs impacts à long terme, avec des avantages à long terme. »
Et HEC dans tout ça ?
Guillaume Chaslot connaît bien le sujet : il a participé à la construction de l’algorithme de recommandation de YouTube avant de se décider à quitter l’entreprise, notamment pour lutter contre les théories du complot propagées sur YouTube en utilisant ce même algorithme. A ce titre, il a récemment salué récemment sur Twitter la décision prise par YouTube de suspendre le système de recommandation pour les vidéos complotistes comme « le début d’une technologie plus humaine… qui donne à chacun de nous plus de pouvoir, au lieu de tromper les plus vulnérables. » Son engagement pour informer les citoyens sur les mécanismes internes aux algorithmes « qui déterminent et façonnent notre accès à l’information » s’accompagne d’un appel lancé aux entreprises pour qu'elles se tournent vers l'IA. « Les entreprises françaises ne le comprennent pas encore. Leurs responsables vont juste mettre un ou deux "data scientists" sur l'assistance en matière d’'IA. Tandis que les Chinois et les Américains placent l'IA au coeur des entreprises, et construisent tout le reste autour. HEC Paris a un rôle essentiel à jouer sur les façons de mettre en oeuvre l’IA. »
Cet intérêt pour le rôle d’HEC a été évoqué par le public lors de la séance plénière à la fin de la conférence : « quelles compétences les écoles de commerce devraient-elles enseigner aux managers afin de tirer parti de ces outils technologiques ? », a par exemple demandé un membre du corps professoral. « Soyez ouverts à l’apprentissage et soyez prêts à modifier vos méthodes au fil du temps, pour intégrer de nouvelles informations », a répondu Meghan Alzec, responsable Data & Analytics chez Spencer Stuart. « Acceptez l’échec, » a ajouté Serge Yoccoz, le directeur général de Renault Digital, « la peur de l’échec est si profondément ancrée en nous qu’elle nous empêche de tester de nouvelles technologies. » Bertrand Thirion, de l’Institut DATAIA, a quant à lui souligné l'importance de cultiver le doute : il conseille aux étudiants de remettre davantage en question les résultats obtenus à l'aide d'outils basés sur l'IA, plutôt que de les accepter aveuglément.
Poser les bonnes questions
Pour Mitali Banerjee, le défi est plus global : « les établissements d’enseignement, en partenariat avec l’industrie et les gouvernements, peuvent revitaliser l’enseignement professionnel, souvent considéré comme ayant un statut inférieur. Les modèles d’enseignement universitaire et professionnel peuvent être améliorés afin de mieux servir les objectifs et les aspirations des étudiants. Une école comme HEC n’a aucun mal à attirer des recruteurs renommés en conseil et en finance, mais nous devrions aussi faire venir les meilleures organisations à but non lucratif qui utilisent l’IA et la robotique pour servir des objectifs sociaux plus larges. » Avant d’aller plus loin : « on parle beaucoup de l'IA et de la robotique, qui nous permettraient de travailler de façon plus complexe et plus créative. Mais cette façon de voir semble incomplète. À ce stade, l’IA est capable de réaliser de nombreuses tâches créatives - écrire de la poésie, créer des peintures et de la musique – presque aussi bien que les humains. La plupart des œuvres créatives - une chanson, un roman - ne deviennent pas un "block-buster" à plusieurs millions de dollars. Produire un travail créatif crée cependant une valeur considérable, d’un point de vue personnel et social, pour la petite communauté de personnes qui le produit et le consomme. »
« Le problème est que notre marché du travail n'est pas suffisamment adapté pour récompenser la valeur sociale et personnelle créée par de telles activités, ou par un travail qui implique empathie et compassion - plus largement, quelque chose qui a du sens pour les gens. » La professeure d’HEC a ensuite encouragé d'autres domaines à adopter une approche plus multidisciplinaire de l'éducation : « l’intelligence artificielle était auparavant un domaine interdisciplinaire rassemblant des philosophes, des spécialistes des sciences cognitives et sociales, qui travaillaient tous avec des informaticiens et des statisticiens pour développer ces technologies. L’IA devrait revenir à ses racines interdisciplinaires. » Mitali Banerjee a conclu en projetant deux images montrant des visions différentes de sociétés futures s’appuyant sur des outils technologiques avancés : « la première image est tirée de Star Trek, où la technologie est utilisée pour explorer, découvrir et apprendre, sans interférer avec une autre civilisation ou communauté. La seconde est tirée de Star Wars, où la technologie est employée comme arme de guerre. Chacune de ces visions incarne deux ensembles de valeurs distinctes. C'est à nous de choisir, de décider quelles sont les valeurs auxquelles nous adhérons. Au lieu de s’interroger sur le remplacement des emplois par l'IA et les robots, nous devrions nous demander quelles sont les valeurs qui comptent pour nous. Et ensuite utiliser ces valeurs comme guide pour définir la structure sociale qui décidera de l’impact de ces technologies. »